首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏每月技术成长

    Token plan 取代 Coding plan 的必然性

    而到了2025年第三季度,GLM4.X系列、MiniMax2.X系列、Kimi2.X系列模型的发布,使得国内开发者将部分注意力转移至国产大模型上。

    43710编辑于 2026-04-10
  • GLM、MiniMax、Kimi、豆包、千问,国产模型Coding Plan怎么选?一文全套短评

    我购买了所有支持coding plan的最低价套餐用来测试,我的主要编程工具是claude code,如果以Claude Opus 4.6为10分标准,我会根据自己的体验,给这些coding plan里支持的国产打分 下面,就让我们来看看,国内各个厂商提供的Coding Plan套餐,哪家最能打。 GLM 最早在国内学习海外模型提供Coding Plan,并通过社媒和github大量推广,在其上市前形成了较好的社区反应。 再说下模型,GLMcoding plan中,仅支持glm-4.7、glm-4.6、glm-4.5和glm-4.5-air,不过大部分情况下,我们都会使用glm-4.7。 总结起来,就是国产模型的coding plan面临着模型能力不足和自身服务性价比缺陷问题。希望国产之光deepseek能早日发布新模型和coding plan

    26.7K20编辑于 2026-03-03
  • 来自专栏AI进修生

    GLM、MiniMAX、Kimi 不用分别订阅了,一个方舟Coding Plan 爽玩Openclaw、Claude Code

    有时候我既想用GLM4.7跑Claude Code,Kimi2.5 跑Teams,又想用MiniMax 2.5跑Openclaw。 所以我发现了一个聚合方案,就是这个字节火山方舟的 Coding Plan 计划。使用它就不需要在智谱、minimax、kimi这些地方都去订阅。而是只使用它就可以切换所有的这些模型。 方舟Coding Plan,各种编程工具兼容,配置简单可以无缝融入工具链 前两天我使用 OpenCLaw的时候,就用它 —— 方舟Coding Plan,一键接入并随时切换不同的模型: 它的量是Claude 在这点击选择方舟Coding Plan相应套餐。订阅即可:https://www.volcengine.com/activity/codingplan? MiniMax2.7 和 GLM5 还没有。

    1.6K10编辑于 2026-03-31
  • 来自专栏不知道取什么名字的名字

    openclaw,通过onboard命令配置coding plan模型

    tab=coding-plan#/efm/detailminiMAX国内版codingplan:https://platform.minimaxi.com/user-center/basic-information CustomProvider清除原有的BaseURL,填写对应codingplan的BaseURL常见的如下:腾讯云codingplanBaseURL:https://api.lkeap.cloud.tencent.com/coding /v3阿里百炼codingplanBaseURL:https://coding.dashscope.aliyuncs.com/v1minimax国内codingplanBaseURL:https://coding.dashscope.aliyuncs.com codingplanBaseURL:https://api.z.ai/api/anthropic方舟(火山引擎)codingplanBaseURL:https://ark.cn-beijing.volces.com/api/coding -5、glm-4.7、glm-4.6、glm-4.5-air、glm-4.5智谱(国际):glm-5、glm-4.7、glm-4.6、glm-4.5-air、glm-4.5方舟(火山引擎):doubao-seed

    2.8K102编辑于 2026-03-18
  • 来自专栏【腾讯云开发者】

    刚刚,腾讯云Coding Plan全新上架!

    腾讯云大模型 Coding Plan 订阅服务全新上架,现支持 Tencent HY 2.0 Instruct、GLM-5、Kimi-K2.5、MiniMax-M2.5 等多个最新模型,更多模型持续接入中 Coding Plan 新客限量优惠活动,每天上午 10 点开始,24 点结束,库存有限,先到先得。 研究发现,腾讯云 Coding Plan 搭配 Lighthouse 部署 OpenClaw 养虾,效果更佳,快来点击阅读原文,立即体验吧! 如您还有其他问题,可扫码加咨询群沟通更多详细信息!

    11.2K60编辑于 2026-03-12
  • OpenClaw这样买Token最划算:一文看懂各大平台 Coding Plan

    这场价格战的起点,是智谱AI 于 2025 年底率先推出 GLM Coding Plan,随后阿里云百炼以"7.9元/首月"的极低门槛强势入市,腾讯云于 2026 年 3 月 5 日完成最后一块版图的拼接 本文将系统梳理国内六大主流平台的 Coding Plan,分为云厂商(阿里云百炼、字节火山方舟、腾讯云)与模型厂商(智谱 GLM、Kimi 月之暗面、MiniMax)两条主线进行对比,为 OpenClaw 如果你购买的不是 Coding Plan (国外通常称为 API ),你花的银子只能用于浏览器访问大模型。 智谱 GLM-5 的隐藏降权规则 智谱 GLM Coding Plan 存在独家规则:高峰期(UTC+8 14:00~18:00)使用GLM-5时,实际可用次数仅为非高峰期的1/3。 Kimi-K2.5 是目前 Coding Plan 市场唯一支持截图多模态输入的原厂套餐,适合前端与 Vibe Coding 场景。

    94940编辑于 2026-04-13
  • 来自专栏苏三说技术

    GLM-5.1悄悄上线了,国内断档领先!

    3月27日,智谱在用户社群里直接丢下一颗“深夜炸弹”:Coding Plan 全体用户即刻升级到最新旗舰 GLM-5.1。 没有推文,没有长篇 benchmark,也没有营销预热,直接让你用。 二、我测试了一下 这两天,我到智谱的官网:https://bigmodel.cn/glm-coding 订阅了一个月的Coding Plan。 订阅了智谱的Coding Plan之后,访问官方文档:https://docs.bigmodel.cn/cn/coding-plan/using5-1 可以看到接入GLM-5.1的文档: 打开~/.claude 五、对普通开发者的影响 如果你是智谱的 Coding Plan 用户,我建议你不要先看别人评价。 直接做这 5 步: 第一步:拿你手头一个真实任务,不要用玩具样例。 如果你这周只做一件和 AI 相关的事,我建议就是: 打开 Coding Plan,给 GLM-5.1一个真正的长任务,让它从目标跑到交付。

    17510编辑于 2026-04-14
  • 来自专栏时来之笔

    2026 大模型 API 免费额度汇总

    单纯靠新用户免费额度已难以openclaw等应用长期的需求,我们重点整理了近期最火的 Coding Plan 方案。 Coding Plan 是接入AI应用更稳妥的选择:极致省钱: 月均 ¥19.9 起,仅为 Pro 订阅的零头。告别焦虑: 非按量计费,固定请求数模式,不用担心 Token 跑超导致余额扣空。 目前Coding Plan 订阅套餐整理 平台入门价格 (首月/常规)额度 (入门档)核心模型备注说明官方链接腾讯云¥40(Lite Plan)1.8万次 /月MiniMax、GLM-5 、Kimi K2.5 等每日10点限量抢购腾讯云大模型平台阿里云百炼¥40(Lite Plan)1.8万次 / 月Qwen 3.5、GLM-5、MiniMax 等每日9:30限量抢购阿里云百炼 Coding Plan火山方舟¥40(Lite Plan)1.8万次 / 月GLM、Kimi、MiniMax 等高峰期易拥堵,偶发 429 错误火山引擎 - 火山方舟智谱 GLM¥49400次 / 周GLM-5、GLM

    37.6K334编辑于 2026-03-17
  • 来自专栏测试开发技术

    Token花在哪了?Claude Code消耗监控统计神器(四种实用方法)

    这里以智谱AI为例,在智谱AI大模型中,提供了一个名为glm-plan-usage 插件 该插件允许您在 Claude Code 中直接查询 GLM Coding Plan 的当前配额和使用统计信息。 插件安装方式: 1、手工安装 # 安装插件市场 claude plugin marketplace add zai-org/zai-coding-plugins # 安装插件 claude plugin install glm-plan-usage@zai-coding-plugins 2、通过自动助手安装 npx @z_ai/coding-helper 运行 npx @z_ai/coding-helper 开始 -> 编码工具 -> Claude Code -> 插件市场 插件启用后,进入项目目录并启动 Claude Code,使用以下命令检查您的当前配额和使用情况: /glm-plan-usage:usage-query 执行上述命令,从调用过程记录可以发现,执行/glm-plan-usage:usage-query 本质上其实也是调用了一个Claude Skills技能来实现的。

    7K10编辑于 2026-01-26
  • 来自专栏玩转OpenClaw

    轻量云OpenClaw功能更新日志

    2026年4月8日 OpenClaw应用模板 OpenClaw版本更新至2026.4.8 ⚙️ OpenClaw配置面板 • 龙虾医院支持自动备份与回滚• 新增可配置模型:GLM -5.1、GLM-5V• 一键更新能力优化 2026年4月3日 OpenClaw应用模板 • OpenClaw版本更新至2026.4.2• 重磅:腾讯自主开发的QQ插件已合入OpenClaw Plan新增模型:M2.5 Highspeed、M2.5 Lightning• 腾讯云Coding Plan支持一键添加并应用• 飞书机器人一键配置后自动发送确认消息 2026年3月8日 命令,支持国内镜像Skill安装 ⚙️ OpenClaw配置面板 • 支持搜索ClawHub的Skills• 新增可配置模型:火山引擎Coding Plan QQ插件 PlanGLM国内-Coding PlanGLM国际-Coding Plan 2026年2月10日 OpenClaw应用模板 • OpenClaw版本更新至2026.2.9• 预装

    4.1K3234编辑于 2026-04-09
  • Aish,shell ai辅助工具

    当然,执行之前需要给它配置一个大模型~/.aish/config.toml:profile = "glm" model_context_window = 200000 [model_providers.zhipu ] name = "GLM Coding Plan" base_url = "https://open.bigmodel.cn/api/coding/paas/v4" env_key = "ZHIPU_API_KEY chat" request_max_retries = 4 stream_max_retries = 10 stream_idle_timeout_ms = 300000 [profiles.glm ] model = "glm-4.7" model_provider = "zhipu" 默认,它只读,不会改写文件。

    20710编辑于 2026-02-17
  • 如何用终端部署一个openclaw个人专属QQ机器人

    大模型API选购这里我们要购买coding plan的API,这是部署openclaw最具性价比的方式。 (部分内容需要选择后按空格勾选后再回车) Yes / QuickStart / Custom Provider Custom Provider:这里的API Base URL从购买的coding plan 以百炼coding plan为例,我们通常可以在这个订阅页面找到API创建的入口 找到服务商的Base URL 两个任意哪个都可以(默认选第一个)复制粘贴到管理员终端后回车 选择:Paste API Key Model ID:输入自己订阅的coding plan支持的模型名称,例如:kimi-k2.5,glm-5等。 出现这个验证成功说明配置好模型了。 /glm-5(模型提供商/模型)设置完需要重启生效。

    1.2K80编辑于 2026-03-10
  • 从 Vibe coding 到 Agentic Engineering——GLM-5 如何开启智能体工程新时代

    几乎同步,智谱AI于近日开源 GLM-5 并发布长达40页的技术报告,标题为 From Vibe Coding to Agentic Engineering,正式将 Agentic Engineering 如果说 Vibe coding 是让 AI 帮你写一个贪吃蛇,它就直接输出一个可运行的贪吃蛇 demo;那么 Agentic Engineering 则更进一步:当你告诉系统“这个程序里有一个我找不到的 GLM-5 能够实现如此强大的 Agentic 能力,核心在于其底层算法的重大突破。 在此基础上,我们可以进一步来看 GLM-5 完整的训练方案是如何设计与落地的。第一,分层训练不同能力。 回到最核心的问题:从 Vibe coding 到 Agentic Engineering 这个转变意味着什么?它意味着 AI 训练的扩展方式彻底变了。

    94110编辑于 2026-02-26
  • 来自专栏Impala

    Impala Plan Schedule

    Join 等算子, 产生的Join Probe 和Join Builder 算子, 即一个Plan 可能生成多个Plan Fragment 2 BE 过程中, 因为是MPP 数据, 需要将一个Plan 11507). 10: optional string absolute_path // Whether the HDFS file is stored with erasure coding : request_.plan_exec_info) { for (const TPlanFragment& fragment: plan_exec_info.fragments) { std::vector<int32_t> plan_node_to_fragment_idx_; ​ /// Maps from plan node id to its index in plan.nodes _ and plan_node_to_plan_node_idx_.

    37920编辑于 2024-09-23
  • 来自专栏编程语言的世界

    百度云Coding Plan翻车现场直击:一次令人哭笑不得的经历

    百度云Coding Plan翻车现场直击:一次令人哭笑不得的经历嘿,大家好!今天我要和大家分享一下昨晚我在百度云上的一次“奇妙”经历。 事情是这样的,由于腾讯云和阿里云的资源抢不到,我转战百度云,惊喜地发现那里居然还能买到Coding Plan。当时的心情就像是在沙漠中找到了绿洲一样兴奋。 兴奋的开端怀着满心的期待,我迅速入手了百度云的Coding Plan,并迫不及待地开始尝试调用glm-5模型。 就在我满怀信心地按下执行键后,屏幕上弹出了这么一个错误信息:bad response status code 429, message: Error code: 429 - {'error': {'code': 'coding_plan_cluster_rate_limited 翻车进行时很快,官方给出了回复:“您好,因为近期百度千帆Coding Plan订阅客户量持续增长,导致模型API调用量显著提升,在部分白天高峰时段可能会出现请求排队或限流的情况。

    98310编辑于 2026-03-20
  • 来自专栏测试开发技术

    GLM-5.1 第一手实测,平替Claude Opus 4.6?

    这次发布,官方公告很是低调,只有寥寥一句话: GLM-5.1现已面向GLM Coding Plan全部用户(Lite/Pro/Max)开放。 别的没再多说,只是默默甩出Coding Evaluation评测结果—— 在编程能力上跑分45.3,相比上一代GLM-5直接飙升近10分。 此外值得一提的是,此次的GLM-5.1版本率先向GLM Coding Plan所有用户开放,是的,你没听错,面向所有GLM coding plan用户。 七、最后想说 AI Coding 正在经历一条非常清晰的能力跃迁路径。 最早的AI coding,本质上是程序员的效率工具。 而之后的Vibe CodingCoding从专业行为变成一种更大众的表达方式。人们不需要理解每一行代码,但可以借助更好的 Coding Tools,把想法快速变成产品原型。

    3.6K20编辑于 2026-04-02
  • 敢涨价30%的大模型:智谱GLM-5凭什么让投资者疯狂买单?

    逆势涨价的底气 2月12日,当整个AI行业还在价格战中厮杀时,智谱AI做了一个让人瞠目的决定:GLM Coding Plan套餐价格上调30%以上。 这标志着大模型正在经历一场根本性转变:从"氛围编程"(Vibe Coding)向"智能体工程"(Agentic Engineering)演进。 技术细节:低幻觉率的秘密 GLM-5采用了新的RL "slime"框架,显著降低了幻觉率。在SuperCLUE中文大模型基准测试中,国产开源模型正在实现逆袭,而GLM-5无疑是其中的佼佼者。 这让开发者能够快速将GLM-5集成到自己的应用中,形成强大的网络效应。 未来展望 智谱首席科学家唐杰表示,GLM-5是公司"冲击AGI技术高地"的关键里程碑。 虽然距离真正的通用人工智能还有很长的路要走,但GLM-5在多模态理解、复杂推理和自主学习方面的表现,确实让人看到了希望。 对于普通开发者来说,GLM-5的开源意味着更多可能性。

    50510编辑于 2026-03-10
  • 来自专栏ClickHouse

    Impala fe query plan

    if (child.getSink() instanceof JoinBuildSink) continue; // Propagate the plan and cohort IDs to children that are part of the same plan. (fragment.getCohortId()); createBuildPlans(child, buildCohortId); } }​下一篇 讲impala be query plan

    69031编辑于 2022-09-27
  • Plan energy, supplemented by time

    Planning does not mean predicting, that is to say, in planning, it may not be possible to completely plan For example, i plan to prepare for the postgraduate exams before the start of the school yet, but the In summary, i have revised my plan to improve professionalism, and the preparation for the postgraduate But if you plan your schedule in a time of lack of energy, this thins will be very bad. Author: Frytea Title: Plan energy, supplemented by time Link: https://blog.frytea.com/archives/68/

    42320发布于 2020-07-16
  • 来自专栏贾志刚-OpenCV学堂

    GLM-5登顶全球开源第一,25分钟一镜到底搓出完整系统

    点击上方↑↑↑“OpenCV学堂”关注我 【导读】Vibe Coding时代宣告终结!2026年伊始,智谱GLM-5震撼空降,以「智能体工程」重塑游戏规则。 任务扔给GLM-5后,它没有上来就狂写代码,而是先甩出了一份专业的架构设计文档(PLAN.md),并做出了极其成熟的技术选型: 直接采用了Monorepo架构,将项目精准拆解为三个核心包。 成本可控:用户可以用消费级显卡集群跑起一个强力的Coding Agent,不必每运行一次测试都要心疼钱。 屠榜SOTA GLM-5的这次进化,只能用两个字形容:暴力。 现在(Agentic Coding):你需要懂Linux内核,懂500个微服务之间的调用关系,懂如何在不炸掉线上的前提下重构代码,还要能自己规划任务、自己修Bug。 GLM-5并不完美。 /guides/llm/glm-5 · OpenClaw接入文档: https://docs.bigmodel.cn/cn/coding-plan/tool/openclaw 开源链接 · GitHub

    1.6K10编辑于 2026-04-02
领券